Few-shot learning (FSL) is a central problem in meta-learning, where learners must efficiently learn from few labeled examples. Within FSL, feature pre-training has recently become an increasingly popular strategy to significantly improve generalization performance. However, the contribution of pre-training is often overlooked and understudied, with limited theoretical understanding of its impact on meta-learning performance. Further, pre-training requires a consistent set of global labels shared across training tasks, which may be unavailable in practice. In this work, we address the above issues by first showing the connection between pre-training and meta-learning. We discuss why pre-training yields more robust meta-representation and connect the theoretical analysis to existing works and empirical results. Secondly, we introduce Meta Label Learning (MeLa), a novel meta-learning algorithm that learns task relations by inferring global labels across tasks. This allows us to exploit pre-training for FSL even when global labels are unavailable or ill-defined. Lastly, we introduce an augmented pre-training procedure that further improves the learned meta-representation. Empirically, MeLa outperforms existing methods across a diverse range of benchmarks, in particular under a more challenging setting where the number of training tasks is limited and labels are task-specific. We also provide extensive ablation study to highlight its key properties.
translated by 谷歌翻译
Humans use all of their senses to accomplish different tasks in everyday activities. In contrast, existing work on robotic manipulation mostly relies on one, or occasionally two modalities, such as vision and touch. In this work, we systematically study how visual, auditory, and tactile perception can jointly help robots to solve complex manipulation tasks. We build a robot system that can see with a camera, hear with a contact microphone, and feel with a vision-based tactile sensor, with all three sensory modalities fused with a self-attention model. Results on two challenging tasks, dense packing and pouring, demonstrate the necessity and power of multisensory perception for robotic manipulation: vision displays the global status of the robot but can often suffer from occlusion, audio provides immediate feedback of key moments that are even invisible, and touch offers precise local geometry for decision making. Leveraging all three modalities, our robotic system significantly outperforms prior methods.
translated by 谷歌翻译
ICECUBE是一种用于检测1 GEV和1 PEV之间大气和天体中微子的光学传感器的立方公斤阵列,该阵列已部署1.45 km至2.45 km的南极的冰盖表面以下1.45 km至2.45 km。来自ICE探测器的事件的分类和重建在ICeCube数据分析中起着核心作用。重建和分类事件是一个挑战,这是由于探测器的几何形状,不均匀的散射和冰中光的吸收,并且低于100 GEV的光,每个事件产生的信号光子数量相对较少。为了应对这一挑战,可以将ICECUBE事件表示为点云图形,并将图形神经网络(GNN)作为分类和重建方法。 GNN能够将中微子事件与宇宙射线背景区分开,对不同的中微子事件类型进行分类,并重建沉积的能量,方向和相互作用顶点。基于仿真,我们提供了1-100 GEV能量范围的比较与当前ICECUBE分析中使用的当前最新最大似然技术,包括已知系统不确定性的影响。对于中微子事件分类,与当前的IceCube方法相比,GNN以固定的假阳性速率(FPR)提高了信号效率的18%。另外,GNN在固定信号效率下将FPR的降低超过8(低于半百分比)。对于能源,方向和相互作用顶点的重建,与当前最大似然技术相比,分辨率平均提高了13%-20%。当在GPU上运行时,GNN能够以几乎是2.7 kHz的中位数ICECUBE触发速率的速率处理ICECUBE事件,这打开了在在线搜索瞬态事件中使用低能量中微子的可能性。
translated by 谷歌翻译
为了检测现有的隐志算法,最近的切解方法通常在数据集上训练卷积神经网络(CNN)模型,该模型由相应的配对盖/stego图像组成。但是,对于那些切断的工具,完全重新训练CNN模型以使其对现有的隐志算法和新的新出现的隐志算法有效,这是无效和不切实际的。因此,现有的切解模型通常缺乏新的隐志算法的动态扩展性,这限制了其在现实情况下的应用。为了解决这个问题,我们建议基于切解分析的基于基于的参数重要性估计(APIE)学习方案。在此方案中,当对新的截然算法生成的新图像数据集进行训练时,其网络参数将有效,有效地更新,并充分考虑其在先前的培训过程中评估其重要性。这种方法可以指导切解模型来学习新的隐志算法的模式,而不会显着降低针对先前的横向志算法的可检测性。实验结果表明,提出的方案具有新兴新兴志志算法的可扩展性。
translated by 谷歌翻译
建模多代理系统需要了解代理的相互作用。这样的系统通常很难建模,因为它们可以涉及各种类型的相互作用,以促进丰富的社会行为动态。在这里,我们介绍了一种用于准确建模多代理系统的方法。我们介绍了使用多重注意(IMMA)的相互作用建模,这是一种前向预测模型,该模型使用多重潜在图代表多种独立类型的相互作用,并注意对不同优势的关系。我们还介绍了渐进层培训,这是该体系结构的培训策略。我们表明,我们的方法在轨迹预测和关系推理中的最先进模型优于最先进的模型,涵盖了三个多代理方案:社交导航,合作任务成就和团队运动。我们进一步证明,我们的方法可以改善零拍的概括,并使我们能够探究不同的相互作用如何影响代理行为。
translated by 谷歌翻译
我们介绍了视觉匹配任务,其中音频剪辑被转换为听起来像是在目标环境中记录的。鉴于目标环境的图像和源音频的波形,目标是重新合成音频,以匹配目标室声音的可见几何形状和材料所建议的。为了解决这一新颖的任务,我们提出了一个跨模式变压器模型,该模型使用视听注意力将视觉属性注入音频并生成真实的音频输出。此外,我们设计了一个自我监督的训练目标,尽管他们缺乏声学上不匹配的音频,但可以从野外网络视频中学习声学匹配。我们证明,我们的方法成功地将人类的言语转化为图像中描绘的各种现实环境,表现优于传统的声学匹配和更严格的监督基线。
translated by 谷歌翻译
图像操纵检测的关键研究问题是如何学习对新型数据中的操纵敏感的宽大功能,而特定于防止在真实图像上的误报。目前的研究强调了敏感性,特异性主要忽略了。在本文中,我们通过多视图特征学习和多尺度监督来解决两个方面。通过利用篡改区域周围的噪声分布和边界伪影,前者旨在学习语义 - 不可知,更广泛的特征。后者允许我们从真实的图像中学习以通过依赖于语义分割损耗的现有技术来考虑非凡的图像。我们的想法是由我们术语MVSS-Net及其增强版MVSS-Net ++的新网络实现。六个公共基准数据集的综合实验证明了MVSS-Net系列的可行性,以实现像素级和图像级操作检测。
translated by 谷歌翻译
书法的真实性是艺术领域中的重要而艰巨的任务,其中关键问题是书法的几次拍摄分类。我们提出了一种新的方法,Shufanet(“Shufa”是中国书法的拼音),在几次射击的情况下,根据公制学习对中国书法的款式进行分类,其分类准确性超过了书法专业的学生水平。我们提出了一种新的网络架构,包括称为Shufaloss的手写字体样式的独特表达,以及作为先验知识的书法类别信息。同时,我们修改了空间关注模块,并根据传统九宫思想为手写字体创建了Shufaittent。对于模型的培训,我们构建了一个书法的数据集。我们的方法在我们的数据集中实现了65%的准确率,用于几次拍摄的学习,超越Reset和其他主流CNN。与此同时,我们为书法主要学生进行了战斗,最后超越了他们。这是第一次在书法家分类领域深入学习的尝试,我们希望为后续研究提供思路。
translated by 谷歌翻译
双耳音频提供具有沉浸式空间声音体验的人类听众,但大多数现有视频缺乏双耳录音。我们提出了一种音频空间化方法,它借鉴视频中的视觉信息,以将其单声道(单通道)音频转换为双耳音频。现有方法利用直接从视频帧提取的可视化功能,我们的方法明确地解除了视觉流中存在的几何线索以指导学习过程。特别是,我们开发了一种多任务框架,通过考虑底层室脉冲响应,从而为底层室的脉冲响应而学习几何感知功能,从声音源的位置,以及声音几何形状的一致性随着时间的推移。此外,我们介绍了一个新的大型视频数据集,具有逼真的双链条音频,用于真实世界扫描环境。在两个数据集上,我们展示了我们方法的功效,这实现了最先进的结果。
translated by 谷歌翻译
多士道对象的感知,推理和互动近年来是一个关键的研究主题。然而,这些方向上的进展受到可用的一小一组物体的限制 - 合成对象不够现实,并且大致围绕几何,而诸如YCB之类的真实对象数据集通常实质上是挑战和不稳定,以获得由于国际运输而无法获得。 ,库存和财务成本。我们呈现ObjectFolder,一个数据集100个虚拟化对象,用于解决两个关键创新的挑战。首先,ObjectFolder为所有对象进行编码视觉,听觉和触觉感官数据,从而实现许多多声道对象识别任务,超出纯粹对象几何体的现有数据集之外。其次,ObjectFolder为每个对象的视觉纹理,声学模拟和触觉读数采用均匀,对象,和隐式表示,使数据集能够使用和易于共享。我们通过在各种基准任务中评估它,包括在各种基准任务中进行多义感知和控制的测试平台,包括实例识别,交叉感知检索,3D重建和机器人抓握,证明了我们的数据集作为多思想感知和控制的实用性。
translated by 谷歌翻译